Deine Aufgaben Pflege und Weiterentwicklung des Product Information Management Systems (PIM) sowie des Digital Asset Management Systems (DAM) Sicherstellung der Qualität, Konsistenz und Aktualität aller Produktdaten Artikelanlage und -pflege in SAP zur Unterstützung des Produktmanagements Betreuung angebundener Produktdaten- und Verkaufsplattformen sowie Pflege der Markenwebsites Enge Zusammenarbeit mit Marketing, Customer Service, Supply Chain Management und Online-Team Koordination kundenspezifischer Produkt- und Displayprojekte (Tailormade-Aktivitäten) Abstimmung mit Lieferanten sowie Steuerung von Verpackungs- und Etikettendruckdaten Monitoring und Fehlerbehebung der Schnittstellen zwischen PIM, DAM, SAP und weiteren Systemen Mitarbeit an der Optimierung von Prozessen und Schnittstellen im Produktdatenmanagement Schulung und Unterstützung von Kolleg:innen im Umgang mit PIM- und DAM-Systemen Mitarbeit in Digitalisierungs- und Projektinitiativen im Marketingumfeld Dein Profil Kaufmännische Ausbildung oder marketingorientiertes Studium Berufserfahrung im Datenmanagement, in der Datenpflege oder in produktnahen Funktionen Erfahrung im Umgang mit PIM- und DAM-Systemen sowie SAP von Vorteil Sehr gute Kenntnisse in MS Office, insbesondere Excel Strukturierte, eigenständige und sorgfältige Arbeitsweise Analytisches Denkvermögen sowie klare, lösungsorientierte Kommunikation Teamfähigkeit und hohe Serviceorientierung Fließende Deutschkenntnisse (mindestens C1-Niveau) Gute Englischkenntnisse in Wort und Schrift Was erwartet dich bei uns?
Das ist die Aufgabe Unterstützung bei der Entwicklung und Umsetzung von Datenanalysen im Rahmen der globalen Kundendatenstrategie Auf- und Ausbau von Data-Analytics-Use-Cases & Dashboards zur Unterstützung von Marketing- & Vertriebsentscheidungen, u.a. zur Analyse und Optimierung der Kundenzufriedenheit Datenaufbereitung, -modellierung und -visualisierung mit Tools wie Python, PySpark und Power BI Durchführung explorativer Datenanalysen zur Identifikation von Mustern und Trends im Kundenverhalten Als Teil unseres übergreifenden Data Analytics-Teams enge Zusammenarbeit u.a. mit unseren Product Ownern, Data Analysts, Data Scientists & Data Engineers Das wünschen wir uns Studium der Fachrichtung (Wirtschafts-) Informatik oder vergleichbare Studiengänge Erste Erfahrungen mit gängigen Tools zur Datenanalyse & -visualisierung (idealerweise mit Microsoft Power BI und Python) Praktische Vorkenntnisse im Bereich Data Analytics bzw.
Das ist die Aufgabe Mitwirken im innovativen Big Data Team: Unterstütze andere Fachbereiche durch Expertise in Data Analytics und erhalte Einblicke in Data Science und Data Visualization, um datengetriebene Entscheidungen voranzutreiben Beteiligen an Analytics Projekten: Arbeite interdisziplinär, um Produkte und interne Prozesse durch datengetriebene Insights zu optimieren, mit der Chance, echte geschäftliche Herausforderungen mit modernen Analysemethoden zu lösen Entwickeln von Analysemodellen: Nutze Data Science Tools wie PySpark oder Azure Synapse für komplexe Datenprobleme und gewinne wertvolle Einblicke Erstellen und Präsentieren von Reports: Gestalte mit Power BI visuell ansprechende Reports, die Analyseergebnisse verständlich machen, und teile deine Erkenntnisse mit internen Stakeholdern Kommunizieren von Ergebnissen: Präsentiere deine Analysen und Empfehlungen, um Entscheidungsprozesse zu beeinflussen und kommunikative Fähigkeiten zu stärken Das wünschen wir uns Laufendes Studium der Fachrichtung Informatik, Wirtschaftsinformatik, Mathematik oder vergleichbare Studiengänge Erste Erfahrungen in der Analyse, Transformation und Visualisierung von Daten von Vorteil Fachliche Kenntnisse im Bereich Cloud Lösungen wie Microsoft Azure vorteilhaft Gute Programmierkenntnisse, vorzugsweise in Python und SQL Selbstorganisierte, strukturierte und zielorientierte Arbeitsweise im Team Ein hohes Maß an Neugierde, um neue Erkenntnisse aus Daten zu generieren Gute Deutsch- und Englischkenntnisse in Wort und Schrift Weitere Details zur Stelle Gehalt: 2.117 €/Monat Beginn: ab April 2026 Bitte füge deiner Bewerbung folgende Unterlagen bei: Lebenslauf, aktueller Notenspiegel und Immatrikulationsbescheinigung sowie wenn vorliegend Arbeitszeugnisse und deine gültige Arbeits- und Aufenthaltserlaubnis
Impact & Teampower: Hohes Maß an Gestaltungsspielraum und unschlagbare Teampower in einem leistungsstarken Arbeitsumfeld Gehalt & Mitarbeiterrabatte: Sicherer Arbeitsplatz beim Erfinder des Discounts mit einem attraktiven Gehalt sowie Corporate Benefits Das sind deine Aufgaben Du konzipierst, entwickelst und betreibst gemeinsam mit deinem Team skalierbare Lösungen für die internationale Data & Analytics Plattform von ALDI Nord Du übernimmst die Ende zu Ende Verantwortung für die Anbindung neuer Datenquellen, die Entwicklung und Optimierung komplexer ETL Pipelines sowie die Bereitstellung und Pflege der Cloud Infrastruktur Du identifizierst technische Verbesserungsmöglichkeiten und setzt diese um – etwa durch Performance Tuning, Automatisierung oder die gezielte Nutzung bestehender oder neuer Features Du gestaltest die Weiterentwicklung unserer Plattform aktiv mit, indem du technische Standards mitentwickelst, Architekturentscheidungen begleitest und eng mit anderen Engineering Teams zusammenarbeitest Das bringst du mit Dein Studium in einem der Bereiche Mathematik, Informatik, Naturwissenschaft oder Technik (MINT) hast du erfolgreich abgeschlossen oder kannst eine vergleichbare Qualifikation vorweisen Du verfügst über fundierte Kenntnisse in der Entwicklung von ETL Pipelines idealerweise mit Python, SQL und Spark; wünschenswert sind Kenntnisse in Terraform und Git Du hast Erfahrungen im Umgang mit Big Data Technologien, idealerweise mit Produkten aus der Microsoft Azure Cloud (z.B.
Das macht dich aus: Du willst wachsen statt stillstehen und bringst den Mut mit, gemeinsam mit deinem Team unternehmerisch und selbstbestimmt zu agieren. Du hast ein abgeschlossenes Studium in (Wirtschafts-)Informatik oder ein anderes vergleichbares Studium. Du jonglierst gekonnt mit Daten und bringst fundierte Projekterfahrung im Aufbau von Datenbewirtschaftungslösungen mit.
*Geschlecht (d/m/w) egal, Hauptsache luftfahrtbegeistert✈ Abgeschlossenes Studium in Informatik, Datenverarbeitung oder Nachrichtentechnik mit einschlägiger Berufserfahrung ✈ Mehrjährige Erfahrungen bei der Entwicklung und Einführung von Architekturvorgaben, der Umsetzung von Data-Governance-Ansätzen sowie beim Aufbau einer Datenorganisation ✈ Fundierte Kenntnisse in modernen Datenarchitekturen und Datenmodellen, v.a. auch in Cloud-Technologien und API-Architekturen ✈ Idealerweise Kenntnisse in SWIM (System Wide Information Management) ✈ Erfahrung im Einsatz von Werkzeugen, Tools und Anwendungen für Datenmanagement, -governance und -modellierung ✈ Erfahrung in Projektleitung und Arbeitsgruppen, auch im internationalen Umfeld ✈ Verhandlungssichere Englischkenntnisse in Wort und Schrift32 Tage bezahlte Freistellung (u.a.
Als integraler Bestandteil unseres Teams gestaltest und entwickelst du innovative Backend-Services auf Basis von Kotlin mit Spring Boot und Ktor, wobei du stets ganzheitlich über den gesamten Stack hinweg denkst Mit deinem Know-how gestaltest und implementierst du robuste Schnittstellen (REST/APIs) und modellierst sowie optimierst unsere Datenbanken (PostgreSQL, idealerweise auch Neo4j) Du bist maßgeblich an der Entwicklung, dem Deployment und dem Betrieb unserer Anwendungen in einer modernen Cloud-nativen Umgebung (AWS, Kubernetes) beteiligt Du erstellst und pflegst eigenständig automatisierte Tests, unterstützt unsere CI/CD-Pipelines und arbeitest eng mit Product Ownern und anderen Entwicklungsteams zusammen, um die besten Lösungen zu finden Deine Expertise ist gefragt bei der Fehleranalyse, dem Bugfixing und der kontinuierlichen Verbesserung unserer bestehenden Komponenten, optional bringst du dich auch in die Umsetzung und Pflege von Frontend-Komponenten mit React ein Du verfügst über ein erfolgreich abgeschlossenes Studium der Informatik, Wirtschaftsinformatik oder eine vergleichbare Qualifikation und bringst fundierte praktische Erfahrung in der Backend-Entwicklung mit Kotlin, Spring Boot und Ktor mit Der sichere Umgang mit Datenbanken wie PostgreSQL und idealerweise auch Neo4j ist für dich selbstverständlich und du bewegst dich souverän in der Cloud-nativen Welt, mit fundierter Erfahrung in Kubernetes, AWS, GitHub Actions und Terraform Idealerweise hast du bereits Berührungspunkte mit React oder die Motivation, dich in Frontend-Themen einzuarbeiten.
Als integraler Bestandteil unseres Teams gestaltest und entwickelst du innovative Backend-Services auf Basis von Kotlin mit Spring Boot und Ktor, wobei du stets ganzheitlich über den gesamten Stack hinweg denkstMit deinem Know-how gestaltest und implementierst du robuste Schnittstellen (REST/APIs) und modellierst sowie optimierst unsere Datenbanken (PostgreSQL, idealerweise auch Neo4j)Du bist maßgeblich an der Entwicklung, dem Deployment und dem Betrieb unserer Anwendungen in einer modernen Cloud-nativen Umgebung (AWS, Kubernetes) beteiligtDu erstellst und pflegst eigenständig automatisierte Tests, unterstützt unsere CI/CD-Pipelines und arbeitest eng mit Product Ownern und anderen Entwicklungsteams zusammen, um die besten Lösungen zu findenDeine Expertise ist gefragt bei der Fehleranalyse, dem Bugfixing und der kontinuierlichen Verbesserung unserer bestehenden Komponenten, optional bringst du dich auch in die Umsetzung und Pflege von Frontend-Komponenten mit React ein Du verfügst über ein erfolgreich abgeschlossenes Studium der Informatik, Wirtschaftsinformatik oder eine vergleichbare Qualifikation und bringst fundierte praktische Erfahrung in der Backend-Entwicklung mit Kotlin, Spring Boot und Ktor mitDer sichere Umgang mit Datenbanken wie PostgreSQL und idealerweise auch Neo4j ist für dich selbstverständlich und du bewegst dich souverän in der Cloud-nativen Welt, mit fundierter Erfahrung in Kubernetes, AWS, GitHub Actions und TerraformIdealerweise hast du bereits Berührungspunkte mit React oder die Motivation, dich in Frontend-Themen einzuarbeiten.Du bist lösungsorientiert, packst Herausforderungen gerne an und bist stets offen für neue Technologien und kontinuierliche WeiterentwicklungSehr gute Deutsch- und Englischkenntnisse in Wort und Schrift, eine strukturierte Arbeitsweise sowie die Freude an der Zusammenarbeit im Team runden dein Profil ab Anspruchsvolle und abwechslungsreiche Aufgaben in einer zukunftsträchtigen und innovativen BrancheEin hoch motiviertes Team und ein offener Kommunikationsstil Ihr Kontakt Referenznummer 861935/1 Kontakt aufnehmen Telefon:+ 49 621 1788-4297 E-Mail: positionen@hays.de Anstellungsart Anstellung bei der Hays Professional Solutions GmbH
Erfolgreich abgeschlossene Ausbildung (z. B. Fachinformatiker (m/w/d)) oder abgeschlossenes Studium im Bereich Informatik oder einer vergleichbaren Fachrichtung Mindestens 3 Jahre Berufserfahrung als Data Engineer / Data Warehouse & BI Specialist (m/w/d) Erste praktische Erfahrung in BI- und/oder Data-Warehouse-Projekten sowie im Umgang mit ETL-Tools und SQL Fundierte Kenntnisse in der Datenbankmodellierung und -entwicklung; Python- Kenntnisse sind von Vorteil Ausgeprägtes Interesse an Digitalisierung, Datenarchitekturen und Transformationsprojekten in einem agilen Umfeld Sehr gute Deutsch-(mindestestens B2-Niveau) sowie gute Englischkenntnisse in Wort und Schrift Hohe Begeisterungsfähigkeit sowie Motivation, neue Themen aktiv voranzutreiben Ausgeprägte Teamfähigkeit, sicheres Auftreten und gute Umgangsformen Sehr gute Kommunikationsfähigkeit auf unterschiedlichen Ebenen Selbstständige, strukturierte und lösungsorientierte ArbeitsweiseEinen abwechslungsreichen und herausfordernden Arbeitsplatz mit spannenden Aufgaben Intensive und umfassende Einarbeitung, die individuell auf Sie ausgerichtet wird, um Ihnen den optimalen Start in Ihre neue Position zu ermöglichen Ein Unternehmen mit über 180-jähriger Erfolgsgeschichte in einer soliden und zukunftsorientierten Branche - die Edelmetallbranche.
Du stellst eine hohe, standortübergreifende Datenqualität sicher und etablierst dazu passende Monitoring- und Reportingstrukturen.Du koordinierst und unterstützt die Fachanwender:innen, schulst sie in den Stammdatenprozessen und bist zentrale Ansprechperson für Stammdaten und PIM.Du hast ein Studium im Bereich BWL, Logistik oder Supply Chain Management abgeschlossen.Du hast Berufserfahrung im Supply Chain oder Einkauf und verfügst über fundierte praktische Erfahrung im Stammdatenmanagement (MDM) oder Product Information Management (PIM).Du kennst Dich gut mit SAP und MS Excel aus oder bist bereits Experte in einem anderen ERP-System.Du denkst in Prozessen, behältst den Überblick und kannst gut organisieren.
Teilprojektleitung im Aufbau eines Data Lakes für die Steuerabteilung innerhalb der SAP Business Data Cloud Konzeption und Modellierung von steuerlich relevanten Datenstrukturen und Datenflüssen Anforderungsmanagement: Aufnahme, Analyse und Priorisierung der Anforderungen der Steuerfachbereiche Enabling der Steuerabteilung im Umgang mit Datenmodellen und analytischen Werkzeugen Enge Zusammenarbeit mit dem Plattform Service zur Übergabe der Modelle in den späteren Betrieb Unterstützung bei Qualitätssicherung, Testing und Data Governance Mitarbeit bei der Erstellung von Standards, Guidelines und Dokumentationen Abgeschlossenes Studium im Bereich Wirtschaftsinformatik, Betriebswirtschaft, Data Analytics oder eine vergleichbare Qualifikation Erfahrung im Umfeld von SAP Datasphere / Business Warehouse / Data Lakes oder Business Data Cloud Kenntnisse in der Datenmodellierung (z.B.
Du hast ein Studium der (Wirtschafts-)Informatik, Mathematik oder eine vergleichbare Qualifikation abgeschlossen. Mehrjährige Erfahrung als Data Engineer oder in einer ähnlichen Rolle bringst du mit.
Teilprojektleitung im Aufbau eines Data Lakes für die Steuerabteilung innerhalb der SAP Business Data Cloud Konzeption und Modellierung von steuerlich relevanten Datenstrukturen und Datenflüssen Anforderungsmanagement: Aufnahme, Analyse und Priorisierung der Anforderungen der Steuerfachbereiche Enabling der Steuerabteilung im Umgang mit Datenmodellen und analytischen Werkzeugen Enge Zusammenarbeit mit dem Plattform Service zur Übergabe der Modelle in den späteren Betrieb Unterstützung bei Qualitätssicherung, Testing und Data Governance Mitarbeit bei der Erstellung von Standards, Guidelines und Dokumentationen Abgeschlossenes Studium im Bereich Wirtschaftsinformatik, Betriebswirtschaft, Data Analytics oder eine vergleichbare Qualifikation Erfahrung im Umfeld von SAP Datasphere / Business Warehouse / Data Lakes oder Business Data Cloud Kenntnisse in der Datenmodellierung (z.B.
Du führst eigenständig Anforderungsanalysen durch, implementierst robuste ETL/ELT‑Prozesse sowie wiederverwendbare Datenpipelines und stellst die Datenqualität sicher.Du leistest einen maßgeblichen Beitrag zur kontinuierlichen Verbesserung der Datenqualität und Automatisierung der FUTRUE-Gruppe.Du bist verantwortlich für die Verprobung und Validierung von Ergebnissen in Zusammenarbeit mit den Fachbereichen.Du erstellst Unterlagen für das Top-Management und präsentierst Deine Ergebnisse in Management-Meetings.Du hast Dein Studium im Bereich der Mathematik, Informatik, Betriebswirtschaftslehre oder einem ähnlichen Studiengang abgeschlossen und verfügst über Basiswissen im Bereich Data & Business Intelligence.Du überzeugst durch eine ausgeprägte analytische Fähigkeiten und hast eine hohe Zahlenaffinität.Du beherrschst (T‑)SQL auf fortgeschrittenem Niveau (Komplexe Joins, Window‑Funktionen) und nutzt Python (z.
Entwickeln einer Datenstrategie in Abstimmung mit den Geschäftszielen der KundenEntwerfen und Implementieren von komplexen Datenmodellen und OntologienSchaffen einer konsolidierten DatenbasisSicherstellung der Datenqualität auf höchstem NiveauPlanen und Gestalten von Datenarchitektur für verschiedene Anwendungen und SystemeEntwickeln und Implementieren von Data-Governance-VerfahrenAuswahl von Datenbanken, Tools und Technologien in Abstimmung mit den Anforderungen unserer KundenLeiten eines Teams von Architekten und Entwicklern, Unterstzützung derer bei der beruflichen WeiterentwicklungDeutsch fließend in Wort und Schrift (C1), gute EnglischkenntnisseAbgeschlossenes Studium im Bereich Informatik, Datenwissenschaft oder adäquate QualifikationMehrere Jahre Berufserfahrung als Datenarchitekt oder in einer ähnlichen PositionErfahrung in der Arbeit mit Datenintegrationstools und -technologienKenntnisse in Data-Governance und DatenschutzbestimmungenAnalytische Fähigkeiten und die Fähigkeit, komplexe Probleme zu lösenKommunikations- und TeamführungsfähigkeitenInnovatives, modernes und anspruchsvolles Arbeitsumfeld mit flachen Hierarchien und der Möglichkeit, eigene Stärken individuell einzubringenLangfristige berufliche PerspektivenAttraktive EntlohnungFlexible Arbeitszeiten und Home-OfficeModernes Arbeitsumfeld in coolen Büros, in denen wir auch auf deine Gesundheit achten, z.
Gestalten, Implementieren und Pflegen von Datenpipelines Zusammenführen und Konsolidieren von Daten aus verschiedenen Systemen und Plattformen Gewährleisten der Datenqualität, Identifizieren und Bereinigen von Unstimmigkeiten Überwachung und Optimierung von Datenbanken und Speicherlösungen Implementierung von Sicherheitsmaßnahmen und Datenschutzrichtlinien Enge Zusammenarbeit mit Data Scientists, Analysten und anderen Stakeholdern Technologietrends verfolgen und stetig auf dem neuesten Stand der Datenverarbeitungstechnologien bleiben Deutsch fließend in Wort und Schrift (C1), gute Englischkenntnisse Abgeschlossenes Studium in Informatik, Datenwissenschaft oder adäquate Qualifikation Erfahrung in der Datenverarbeitung, idealerweise in einer ähnlichen Position als Data-Engineer Gute Kenntnisse in relevanten Programmiersprachen (Python, Java, etc.)
Stellenbeschreibung Wir suchen für ein Unternehmen aus der Energiebranche für den Standort Augsburg/ remote einen IT-Spezialist Datalab, Data Engineering, Big Data, Splunk (m/w/d) vorerst befristet bis zum 31.12.2026, Übernahme/ Verlängerung möglich Diese spannenden Aufgaben warten: Sizen von Azure-Servern für SQL-Datenbanken und Auswählen der entsprechenden Azure-Ressourcen Schaffen der Migrationsvoraussetzungen (Zugriffsberechtigungen, Firewall-Freischaltungen, …) sowie Migration der Datenbanken von einem OnPrem SQL-Cluster in die Azure-Datenbank Administration der OnPrem MS SQL-Cluster, -Server und -Datenbanken Koordination und Abstimmung mit Applikationsbetreuern und Fachbereichen Ein Profil, das uns begeistert: Studium Informatik, alternativ Fachinformatiker mit Weiterbildung Fachkenntnisse in Administration von MS-SQL-Servern und -Datenbanken, Sizen und Betrieb von Servern und SQL-Datenbanken in MS Azure Gute deutsche Sprachkenntnisse in Wort und Schrift zur Kommunikation mit den Fachbereichen Arbeiten in remote möglich.
MID – Driving Continuous Transformation Für spannende Projekteinsätze bei unseren Kunden suchen wir erfahrene Consultants mit BI Expertise.In Deiner Position als Senior Consultant Data Warehouse / Senior Data Analyst erwarten Dich abwechslungsreiche und anspruchsvolle Tätigkeiten entlang des gesamten Prozesses der Softwareentwicklung in Projekteinsätzen bei unseren KundenEigenverantwortlich stimmst Du die unterschiedlichen Anforderungsspezifikationen mit unseren Kunden und Fachabteilungen ab, analysierst und konzipierst die Datenaufbereitungsprozesse von der Schnittstelle bis hin zur KennzahlDabei beschäftigst Du Dich mit der Entwicklung/Aufbau von relationalen und multidimensionalen Datenbanken mit dem Ziel eines einheitlichen DatenbestandesDu optimierst bestehende Systemlösungen im Kontext Data WarehouseDu gestaltest die Architektur und das Design des Data Warehouse und entwickelst moderne Lösungen für ein Datenmodell.Du hast ein Studium im Bereich (Wirtschafts-)Informatik oder einem anderen Studiengang mit IT und/oder Informatik Fokus abgeschlossen, alternativ verfügst du über eine vergleichbare Qualifikation mit entsprechender IT-Affinität und bestenfalls Bezug zu ControllingDu bringst mindestens 5 Jahre Berufserfahrung in agilen Business Intelligence- oder in Data Warehouse-Projekten mit und bist dabei mit der Umsetzung von DSGVO-konformen DWH-Lösungen in Berührung gekommen.Du verfügst über Berufserfahrung im Design von ETL-Prozessen und Datenstrukturen, insbesondere im Umgang mit sehr großen Datenmengen und bist sicher im Umgang mit SQLMehrjährige Erfahrung in der Konzeption von ETL/ELT-Prozessen sowie ein Bewusstsein für DWH-Architekturen zeichnen dich aus.Du bringst Erfahrung in der Gestaltung von Schnittstellen zum DWH mit und hast bestenfalls bereits eventbasierte Schnittstellen mit Apache Kafka designt.Du überzeugst uns mit konzeptionellen Fähigkeiten und einem prozessualen und analytischen Denkvermögen und verfügst über verhandlungssichere Deutschkenntnisse.
Ihre Aufgaben Zu Ihren Aufgaben gehört die Konzeption, Erstellung und Pflege aussagekräftiger Berichte und Auswertungen mithilfe von SSRS oder vergleichbaren Reporting-ToolsMit gut strukturierten SQL-Abfragen und optimierten Datenbankstrukturen tragen Sie zu einer hohen Datenqualität und Performance beiDie Betreuung, Weiterentwicklung und Stabilität der eingesetzten Datenbanksysteme liegen ebenfalls in Ihrem VerantwortungsbereichAußerdem entwickeln und warten Sie webbasierte Anwendungen und stellen deren reibungslosen Betrieb sicherIn enger Zusammenarbeit mit verschiedenen Fachbereichen wirken Sie daran mit, Datenmodelle und Architekturstrukturen kontinuierlich zu verbessernAuch die Integration neuer Datenquellen und deren Einbindung in bestehende Systeme gehört zu Ihrem ArbeitsalltagDurch das interne Ticketsystem behalten Sie jederzeit den Überblick über alle anstehenden Aufgaben und Prioritäten Ihre Fähigkeiten Vorausgesetzt wird eine abgeschlossene Ausbildung oder ein Studium im IT-Bereich, etwa in Informatik oder WirtschaftsinformatikPraktische Erfahrung im Umgang mit dem Microsoft SQL Server ab Version 2019 bildet eine wichtige GrundlageKenntnisse in SSIS, SSRS und der Arbeit mit Microsoft Visual Studio (ab Version 2019) sind erforderlichErste Berührungspunkte mit Programmiersprachen wie Python, Java, JavaScript, C# oder .NET werden ebenfalls erwartetErfahrungen mit Reporting-Werkzeugen wie Crystal Reports oder dem Microsoft Report Builder sind von VorteilEbenso hilfreich ist ein sicherer Umgang mit dem Internet Information Services (IIS) zur Verwaltung von WebanwendungenWünschenswert sind zudem Kenntnisse in der Administration Microsoft-basierter SoftwarearchitekturenAls Pluspunkt gelten Know-how im Bereich OLAP-Datenbanken sowie ein generelles Interesse an UX- oder Webdesign-Themen Das wird dir geboten Ein moderner ArbeitsplatzEin Superheroteam mit echtem TeamspiritEine echte und gelebte Work-Life-Balance mit Home Office MöglichkeitenUmfangreiche GesundheitsangeboteFahrtkostenzuschuss bewerbung@ps-direkt.com Tel. 0221-846909-0 oder schreib uns gerne auf Xing an!
Ihre Aufgaben Zu Ihren Aufgaben gehört die Konzeption, Erstellung und Pflege aussagekräftiger Berichte und Auswertungen mithilfe von SSRS oder vergleichbaren Reporting-ToolsMit gut strukturierten SQL-Abfragen und optimierten Datenbankstrukturen tragen Sie zu einer hohen Datenqualität und Performance beiDie Betreuung, Weiterentwicklung und Stabilität der eingesetzten Datenbanksysteme liegen ebenfalls in Ihrem VerantwortungsbereichAußerdem entwickeln und warten Sie webbasierte Anwendungen und stellen deren reibungslosen Betrieb sicherIn enger Zusammenarbeit mit verschiedenen Fachbereichen wirken Sie daran mit, Datenmodelle und Architekturstrukturen kontinuierlich zu verbessernAuch die Integration neuer Datenquellen und deren Einbindung in bestehende Systeme gehört zu Ihrem ArbeitsalltagDurch das interne Ticketsystem behalten Sie jederzeit den Überblick über alle anstehenden Aufgaben und Prioritäten Ihre Fähigkeiten Vorausgesetzt wird eine abgeschlossene Ausbildung oder ein Studium im IT-Bereich, etwa in Informatik oder WirtschaftsinformatikPraktische Erfahrung im Umgang mit dem Microsoft SQL Server ab Version 2019 bildet eine wichtige GrundlageKenntnisse in SSIS, SSRS und der Arbeit mit Microsoft Visual Studio (ab Version 2019) sind erforderlichErste Berührungspunkte mit Programmiersprachen wie Python, Java, JavaScript, C# oder .NET werden ebenfalls erwartetErfahrungen mit Reporting-Werkzeugen wie Crystal Reports oder dem Microsoft Report Builder sind von VorteilEbenso hilfreich ist ein sicherer Umgang mit dem Internet Information Services (IIS) zur Verwaltung von WebanwendungenWünschenswert sind zudem Kenntnisse in der Administration Microsoft-basierter SoftwarearchitekturenAls Pluspunkt gelten Know-how im Bereich OLAP-Datenbanken sowie ein generelles Interesse an UX- oder Webdesign-Themen Das wird dir geboten Ein moderner ArbeitsplatzEin Superheroteam mit echtem TeamspiritEine echte und gelebte Work-Life-Balance mit Home Office MöglichkeitenUmfangreiche GesundheitsangeboteFahrtkostenzuschuss bewerbung@ps-direkt.com Tel. 0221-846909-0 oder schreib uns gerne auf Xing an!
Zum nächstmöglichen Zeitpunkt suchen wir in Weeze für die IT eine/n Data Scientist (m/w/d) Deine Aufgaben Du entwickelst Lösungen im Bereich Predictive Analytics, Machine Learning und Künstliche Intelligenz Du analysierst Prozesse, erarbeitest Optimierungspotentiale und erstellst Prototypen, um Lösungsansätze zu bestätigen Du berätst unsere Fachbereiche bei der Anwendung von datengetriebenen Lösungen Zusätzlich erarbeitest Du mit dem gesamten Business Intelligence (BI) Team Ideen zur Verbesserung und Weiterentwicklung unserer BI- und Data Science-Systeme Dein Profil Basic: Du hast eine Ausbildung, ein Studium oder eine vergleichbare Berufserfahrung sowie gute Mathematik-, Statistik- und IT-Kenntnisse. Weiterhin bist Du kreativ und hast eine Leidenschaft für Daten.
Zum nächstmöglichen Zeitpunkt suchen wir in Weeze für die IT eine/n Data Engineer (m/w/d) Deine Aufgaben Du konzipierst, entwickelst und wartest Datenintegrations- und Modellierungsprozesse im Data Warehouse Du erstellst Konzepte für Daten-Architekturen (u.a. zur Umsetzung von Datenvisualisierungen) Du unterstützt die Fachbereiche bei der Umsetzung von Anforderungen Du setzt Berechtigungskonzepte um Zusätzlich erarbeitest Du mit dem gesamten Business Intelligence (BI) Team Ideen zur Verbesserung und Weiterentwicklung unserer BI-Systeme Dein Profil Basic: Du hast eine Ausbildung, ein Studium oder eine vergleichbare Berufserfahrung und gute IT-Kenntnisse. Du verfügst über gute SQL-Kenntnisse und hast eine Leidenschaft für Daten.
Zum nächstmöglichen Zeitpunkt suchen wir in Weeze für die IT eine/n Data Analyst (m/w/d) Deine Aufgaben Du analysierst, designst und realisierst innovative Business Intelligence (BI) Lösungen Du erfasst und spezifizierst fachliche Anforderungen Du analysierst Prozesse und erarbeitest Optimierungspotentiale Du erstellst Reports und Dashboards Du erarbeitest Ideen zur Verbesserung und Weiterentwicklung unserer BI-Systeme und Datenbankstrukturen Du unterstützt unsere Fachbereiche bei BI-Fragestellungen Dein Profil Basic: Du hast eine berufliche Ausbildung oder ein Studium im Bereich der Informatik, Mathematik, Wirtschafts-, Natur- oder Ingenieurwissenschaften. Add-on: Du verfügst über SQL-Kenntnisse und bringst bereits Erfahrung in der Arbeit mit einem BI-System (z.B.
Ihre zukünftigen Aufgaben: Aufbau und Weiterentwicklung moderner Data-Warehouse- und Data-Lakehouse-ArchitekturenImplementierung und Weiterentwicklung von Datenmodellen nach etablierten Modellierungsansätzen wie Data Vault oder Star SchemaIntegration, Transformation und Aufbereitung von Daten für Analyse- und ReportingzweckeEnge Abstimmung mit Fachbereichen und Data Scientists zur Sicherstellung konsistenter und belastbarer DatenstrukturenMitwirkung an Architekturentscheidungen und Definition von Best Practices innerhalb der Inhouse-IT-Landschaft Das bringen Sie mit: Abgeschlossene Ausbildung oder Studium im Bereich Informatik, Wirtschaftsinformatik, Data Science, Mathematik oder einer vergleichbaren FachrichtungMindestens fünf Jahre fundierte Erfahrung im Data Modelling sowie mindestens drei Jahre praktische Erfahrung im Aufbau und Betrieb von Data-Lakehouse-ArchitekturenSehr gute Kenntnisse in der Arbeit mit Snowflake als Data-Warehouse-LösungErfahrung mit Qlik Sense im Bereich Visualisierung, Datenanalyse und ReportingHohe Lernbereitschaft und Fähigkeit zur schnellen Einarbeitung in neue Technologien und Trends der DatenverarbeitungSelbstständige und analytische Arbeitsweise sowie eine ausgeprägte TeamfähigkeitSehr gute Deutschkenntnisse in Wort und Schrift Ihre Vorteile in einer Festanstellung bei der Tempton Next Level Experts: Ein unbefristeter ArbeitsvertragSicherer Job mit spannenden Projekten bei Top-UnternehmenBezahlung mindestens nach GVP/DGB-TarifvertragUrlaubs- und Weihnachtsgeld plus vermögenswirksame LeistungenBis zu 30 Tage UrlaubExklusive Mitarbeiterrabatte bei zahlreichen namhaften MarkenSpannende Einblicke und verantwortungsvolle AufgabenIndividuelle Betreuung und aktive KarrierebegleitungPersönliches Onboarding und regelmäßige Feedback-Gespräche Haben Sie noch Fragen?
Deine Aufgaben: Entwicklung und Implementierung von Algorithmen und Modellen zur DatenanalyseExtraktion, Transformation und Laden von Daten aus verschiedenen QuellenAnalyse großer Datensätze zur Identifikation von Trends und MusternErweiterungen und Verbesserungen von bestehenden DatenpipelinesAnalyse und Bereinigung von DatensätzenErstellung von prädiktiven Modellen für GeschäftsprognosenZusammenarbeit mit verschiedenen Abteilungen zur Integration von Datenanalysen in GeschäftsprozesseKontinuierliche Evaluierung und Verbesserung der bestehenden ModelleKommunikation von Ergebnissen und Erklärung von Datenanalysen gegenüber nicht-technischen Stakeholdern Dein Profil: Abgeschlossenes Studium im Bereich Datenwissenschaft, Informatik, Statistik oder vergleichbare QualifikationErfahrung in der Anwendung von Datenanalysetechniken und -toolsProgrammierkenntnisse, wie beispielsweise Python oder RKenntnisse in Machine Learning und statistischen MethodenErfahrung mit Datenbanken und DatenvisualisierungstoolsAnalytisches Denkvermögen und ProblemlösungsfähigkeitenTeamfähigkeit und gute KommunikationsfähigkeitenSelbstständige und ergebnisorientierte ArbeitsweiseGute Deutsch- und Englischkenntnisse Was wir bieten: Zukunftsperspektiven in einem innovativen, wachsenden und agilen UnternehmenEin spannendes Arbeitsumfeld mit vielfältigen KarrierechancenEin tarifliches/ übertarifliches GehaltFlexible Arbeitszeiten sowie mobiles Arbeiten30 Urlaubstage pro Jahr und Sonderurlaub für besondere Anlässe bei Anstellung bei Xtended EngineeringBonusprogramme für Empfehlung und MitarbeiterwerbungTeamevents XTENDED ENGINEERING GmbH bringt qualifizierte Ingenieure mit Unternehmen aus der Industrie und Wirtschaft zusammen.
Mein Arbeitgeber Als erfolgreicher, wachsender mittelständischer Anbieter relevanter und innovativer daten- und KI-getriebener Lösungen zur Optimierung der Entscheidungsfindung für namhafte Unternehmen bietet dieser Arbeitgeber eine aufgeschlossene, agile und von Fortschritt geprägte Kultur, in der Teamwork, Eigenverantwortung und kontinuierliches Lernen von hoher Bedeutung sind Gestaltungsspielraum in anspruchsvollen Projekten, langfristige Perspektiven und Flexibilität sind inklusive Konzeption, Umsetzung und Weiterentwicklung von Generative-AI- und NLP-Systemen, die Kundenanforderungen in Bezug auf Performance, Latenz, Kosten und Erweiterbarkeit optimal erfüllen Regelmäßige Abstimmung mit Stakeholdern bzgl. der Anforderungen Enge Zusammenarbeit mit EntwicklerInnen und Technical Leads für die Umsetzung und Use Cases wie Retrieval-basierten Chatbots, Agentensystemen oder Fine-Tuning von Sprachmodellen Planung und Implementierung robuster Machine Learning-Pipelines nach Best Practices - auf Azure, AWS oder GCP Input bei komplexen technischen Herausforderungen sowie Präsentation von Lösungsansätzen Aktive Verfolgung neuer Entwicklungen in NLP und KI, um KundInnen stets moderne, hochwertige Lösungen anzubieten Erfolgreich abgeschlossenes Studium der (Wirtschafts-)Informatik oder eine vergleichbare Ausbildung Einschlägige Berufserfahrung in Data Science und idealerweise im Umgang mit mehreren der typischen NLP-/LLM-Tools wie OpenAI APIs, Bedrock, Azure AI Foundry, LangChain, LangGraph, Instructor, Hugging Face, Tokenizers, Vektordatenbanken, performanter Inferenz, Model Deployment, MCP/A2A und Datensatz-Erstellung Sehr gute Kenntnisse in Machine Learning und Deep Learning, insbesondere im Bezug auf Transformer-Modelle, LLMs und Generative KI Sicherer Umgang mit produktionsreifen Frameworks wie PyTorch sowie mit Agent-Frameworks wie LangGraph, SmolAgents, OpenAI Agent SDK, CrewAI oder PydanticAI Tiefes Verständnis der Model-Optimierung mit PEFT wie QLoRA, Instruction Fine-Tuning, Post-Training, Inference-Optimierung und Embeddings Sicher in Workflows wie Conversational AI, RAG, Info Extraction, Tool Calling, LLM-Evaluation Kenntnisse in Agentic RAG, GraphRAG, Multi-Agent-Systemen, Text-to-SQL und Code Retrieval Sehr gutes Verständnis für Deployments und MLOps auf Azure, GCP oder AWS Hoher Anspruch an Softwarequalität und die Fähigkeit, sauberen, performanten, skalierbaren Code zu schreiben und KI-Systeme produktiv einzusetzen Die Fähigkeit, komplexe Anforderungen in technische Lösungen zu übersetzen und auch Fachfremden sicher zu vermitteln sowie gute Deutsch- und Englischkenntnisse Eigenverantwortliches Arbeiten und Mitgestaltungsmöglichkeiten durch kurze Entscheidungswege Weiterentwicklung durch Fokus auf Innovation: Die vielfältigen und abwechslungsreichen Projekte drehen sich um die Entwicklung intelligenter Algorithmen, datenbasierter Strategien und maßgeschneiderter KI-Lösungen Engagiertes, dynamisches, konstruktives Team mit starkem Zusammenhalt und einer offenen Feedback-Kultur Sehr gut angebundene, moderne Räumlichkeiten und hochwertiges technisches Equipment Flexibel planbarer remote-Anteil von bis zu 40%, sogar zweitweise aus dem EU-Ausland Zuschuss zum Deutschland-Ticket, zu Sport- und Wellnessangeboten sowie zur Kinderbetreuung Gehaltsinformationen Erfahrungsabhängig bis zu 100.000 € p.a.
Mein Arbeitgeber Beratungsunternehmen im Bereich Frachtkostenprüfung und -optimierung mit 100-jähriger Geschichte Modernisierung der Datenbankinfrastruktur bzw. des Data-Warehouse, um hierauf aufbauend sukzessive Automatisierungs- und KI-Lösungen und Tools für verschiedene Analysen und Prüfungen zu implementieren Python-Programmierung Aufbau robuster Datenpipelines, die aus rohen Daten wertvolle Insights generieren Entwicklung und Aufbau der Infrastruktur, um datengetriebene Entscheidungen treffen zu können Aufbau und Weiterentwicklung eines zentralen Data-Vault Datawarehouse-Systems Konzeption, Implementierung und Automatisierung von Datenpipelines (ETL/ELT) mit Apache NiFi, dbt und Python Abgeschlossene Ausbildung zum Fachinformatiker für Anwendungsentwicklung, abgeschlossenes Studium mit Informatikbezug oder Quereinsteiger mit entsprechendem Know-How Fundierte Kenntnisse in der datengetriebenen Softwareentwicklung mit Python Erfahrung in der Frontend- und Backend-Entwicklung Kenntnisse in Django/HTMX von Vorteil Erste Erfahrung im Bereich Data Engineering, Datenbanken, ETL und/oder Data Warehouse Kenntnisse mit Apache NiFi und dbt von Vorteil Ein extrem spannendes und hochkomplexes Betätigungsfeld Attraktive Weiterentwicklungsmöglichkeiten 38-Stunden-Woche Remote-Work möglich Jobrad Gute Erreichbarkeit mit dem Auto und dem ÖPNV Individuelle Absprachen zu Benefits möglich Gehaltsinformationen 50.000 - 70.000 EUR p.a.
zurück Stockstadt am Rhein Abgeschlossene Berufsausbildung oder Studium Vollzeit Unbefristet Ihre Aufgaben Entwicklung und Pflege von Datenmodellen und Reports in Power BI zur Unterstützung datenbasierter Entscheidungen Analyse und Aufbereitung von Geschäfts- und Prozessdaten sowie Identifikation von Trends, Abweichungen und Optimierungspotenzialen Aufnahme, Strukturierung und Umsetzung von Reporting- und Analyseanforderungen aus verschiedenen Fachbereichen Integration und Aufbereitung von Daten aus unterschiedlichen Quellsystemen, insbesondere aus dem Microsoft Dynamics 365 Umfeld (z.
zurück Baienfurt Abgeschlossene Berufsausbildung oder Studium Vollzeit Unbefristet Ihre Aufgaben Entwicklung und Pflege von Datenmodellen und Reports in Power BI zur Unterstützung datenbasierter Entscheidungen Analyse und Aufbereitung von Geschäfts- und Prozessdaten sowie Identifikation von Trends, Abweichungen und Optimierungspotenzialen Aufnahme, Strukturierung und Umsetzung von Reporting- und Analyseanforderungen aus verschiedenen Fachbereichen Integration und Aufbereitung von Daten aus unterschiedlichen Quellsystemen, insbesondere aus dem Microsoft Dynamics 365 Umfeld (z.
Hierbei sicherst und teilst Du Deine Arbeitsergebnisse in Form von technischen Spezifikationen und Dokumentation. Das wünschen wir uns: Abgeschlossenes Studium der Informatik, Wirtschaftsinformatik, im Ingenieurwesen oder eine vergleichbar erfolgreich abgeschlossene Ausbildung im IT-technischen Bereich Mehrjährige praktische Erfahrung in der Datenmodellierung, dem Aufbau von ETL-Prozessen und in der Data Warehouse Automatisierung Sehr gute SQL-Kenntnisse sowie idealerweise erste Kenntnisse in Python Idealerweise Erfahrung in Data Vault Modellierung Praktische Erfahrungen im Umgang mit Snowflake und AWS Sicherheit im Umgang mit JIRA, Confluence und GIT Ausgiebige Erfahrung mit agilen und datengetriebenen Entwicklungsprozessen Sehr gute Deutsch- und Englischkenntnisse in Wort und Schrift Darauf kannst Du Dich freuen: Einzigartige Unternehmenskultur: Basierend auf den Werten von Ferdinand Graf von Zeppelin handeln wir als Stiftungsunternehmen zukunftsorientiert, sozial und nachhaltig.
Tätigkeiten: Potenziale erkennen: Analysiere Kundenanforderungen und entwickle datengetriebene Lösungen – von Analytics über Machine Learning bis GenAI.Strategien entwickeln: Konzipiere individuelle Data-&-AI-Strategien für vielfältige Use Cases.Lösungen skalieren: Entwirf zukunftsfähige Architekturen für Datenplattformen, ML-Pipelines und AI-Systeme.Technologien prüfen: Teste und empfehle passende Technologien, begleite Umsetzungsteams mit klaren Roadmaps.Business ausbauen: Unterstütze Pre-Sales-Aktivitäten, Marktanalysen und die Weiterentwicklung datenbasierter Geschäftsbereiche.Angebote mitgestalten: Bringe deine Ideen in Lösungskonzepte, Kalkulationen und Präsentationen ein.Akademischer Hintergrund: Erfolgreich abgeschlossenes Studium der (Wirtschafts-)Informatik, Computer Science oder eine vergleichbare Qualifikation.Erfahrung: Mehrjährige Erfahrung in der Konzeption und Umsetzung moderner Datenplattformen, ML-Lösungen und AI-Systeme.Technologiekompetenz: Fundierte Erfahrung mit Azure, Databricks oder AWS sowie in Python, SQL, Docker, CI/CD-Pipelines und Infrastructure as Code.Fachliches Know-how: Tiefes Verständnis moderner Datenarchitekturen, MLOps und Data Governance.Arbeitsweise: Kombination aus konzeptioneller Stärke, analytischem Denken und pragmatischer Hands-on-Mentalität.Kommunikationsstärke: Fähigkeit, komplexe Themen klar und überzeugend zu vermitteln – in Deutsch und Englisch.Flexibilität: Wir bieten dir flexible Arbeitsmodelle mit großzügiger Gleitzeitregelung – wahlweise an einem unserer Standorte oder bis zu 100 % mobil innerhalb Deutschlands.Einarbeitung & Entwicklung: Deine individuelle Einarbeitung und Karriereförderung liegen uns am Herzen.
Du gehtst proaktiv auf die Wünsche der Entwickler und Anwender unserer Prüfumgebungen ein. Das wünschen wir uns Laufendes Studium in den Fachrichtungen Informatik oder vergleichbare Studiengänge. Fachliche Kenntnisse im Bereich SQL, MongoDB, C#, Go und Python.
Ihre Aufgaben Konzeptionierung und Erstellung von Reportings und Analysen für interne und externe Kunden des Kundenservice Umsetzung von Report- und Analyseanforderungen auf Basis der Data Warehouses Unterstützung in der Konzeptionierung und Weiterentwicklung des Kundenservice P&P eigenen Data Warehouses Durchführung von Projekten zur Optimierung des Reportings und der Analysefähigkeiten im Kundenservice P&P Ihr Profil Fachanforderungen Abgeschlossenes Studium der Statistik, Mathematik, Informatik, Wirtschaftswissenschaften oder vergleichbare Studienausrichtung Mehrjährige Berufserfahrung in einer vergleichbaren Tätigkeit Erfahrungen aus der Customer Contact Center Branche und im Projektmanagement sind wünschenswert Ausgeprägte konzeptionelle Fähigkeiten in Kombination mit einer hohen Zahlenaffinität Fundierte Kenntnisse der MS Office Standardsoftware (insbesondere Excel, Access und PowerPoint) Fundierte Kenntnisse in Microsoft BI Produkten (z.B.
Das kannst du bei uns MACHEN: Konzeptionieren, Weiterentwickeln und Umsetzen von Integrations- und ETL-Lösungen und den zugehörigen Architekturen auf Basis des Microsoft Azure-StacksAnalysieren und Integrieren neuer Datenquellen sowie kontinuierliches Optimieren der vorhandenen ImplementierungenMitwirken bei Migrationsprojekten und komplexen AuswertungenBetreiben, Monitoren und Deployment der Prozesse im DevOps-PrinzipKommunizieren mit den Fachabteilungen und Mitarbeitenden in strategischen Unternehmensprojekten Das könntest du bei uns EINBRINGEN: Erfolgreich abgeschlossenes Studium im Bereich Informatik, Wirtschaftsinformatik oder vergleichbare QualifikationAnwendungsbereite Python Kenntnisse, idealerweise Python Data Analysis LibraryKenntnisse im Bereich von Integrations- und Architekturmuster* Erfahrungen mit serviceorientierten Architekturen und MicroservicesDatabricks-Kenntnisse und Erfahrung mit Message Brokern (Kafka, Azure ESB) sind von VorteilTeamfähigkeit sowie strukturiertes und strategisches Arbeiten sowie interkulturelle KompetenzHohe Eigeninitiative sowie ein gute ProblemlösungskompetenzGute Deutsch- und EnglischkenntnisseRegelmäßige Präsenz am Standort Darauf kannst du dich bei uns FREUEN: Wettbewerbsfähiges Gehalt zzgl.
Mein Arbeitgeber Als erfolgreicher, wachsender mittelständischer Anbieter relevanter und innovativer daten- und KI-getriebener Lösungen zur Optimierung der Entscheidungsfindung für namhafte Unternehmen bietet dieser Arbeitgeber eine aufgeschlossene, agile und von Fortschritt geprägte Kultur, in der Teamwork, Eigenverantwortung und kontinuierliches Lernen von hoher Bedeutung sind Gestaltungsspielraum in anspruchsvollen Projekten, langfristige Perspektiven und Flexibilität sind inklusive Konzeption, Umsetzung und Weiterentwicklung von Generative-AI- und NLP-Systemen, die Kundenanforderungen in Bezug auf Performance, Latenz, Kosten und Erweiterbarkeit optimal erfüllenRegelmäßige Abstimmung mit Stakeholdern bzgl. der Anforderungen Enge Zusammenarbeit mit EntwicklerInnen und Technical Leads für die Umsetzung und Use Cases wie Retrieval-basierten Chatbots, Agentensystemen oder Fine-Tuning von SprachmodellenPlanung und Implementierung robuster Machine Learning-Pipelines nach Best Practices - auf Azure, AWS oder GCP Input bei komplexen technischen Herausforderungen sowie Präsentation von LösungsansätzenAktive Verfolgung neuer Entwicklungen in NLP und KI, um KundInnen stets moderne, hochwertige Lösungen anzubieten Erfolgreich abgeschlossenes Studium der (Wirtschafts-)Informatik oder eine vergleichbare AusbildungEinschlägige Berufserfahrung in Data Science und idealerweise im Umgang mit mehreren der typischen NLP-/LLM-Tools wie OpenAI APIs, Bedrock, Azure AI Foundry, LangChain, LangGraph, Instructor, Hugging Face, Tokenizers, Vektordatenbanken, performanter Inferenz, Model Deployment, MCP/A2A und Datensatz-ErstellungSehr gute Kenntnisse in Machine Learning und Deep Learning, insbesondere im Bezug auf Transformer-Modelle, LLMs und Generative KISicherer Umgang mit produktionsreifen Frameworks wie PyTorch sowie mit Agent-Frameworks wie LangGraph, SmolAgents, OpenAI Agent SDK, CrewAI oder PydanticAITiefes Verständnis der Model-Optimierung mit PEFT wie QLoRA, Instruction Fine-Tuning, Post-Training, Inference-Optimierung und Embeddings Sicher in Workflows wie Conversational AI, RAG, Info Extraction, Tool Calling, LLM-EvaluationKenntnisse in Agentic RAG, GraphRAG, Multi-Agent-Systemen, Text-to-SQL und Code RetrievalSehr gutes Verständnis für Deployments und MLOps auf Azure, GCP oder AWSHoher Anspruch an Softwarequalität und die Fähigkeit, sauberen, performanten, skalierbaren Code zu schreiben und KI-Systeme produktiv einzusetzenDie Fähigkeit, komplexe Anforderungen in technische Lösungen zu übersetzen und auch Fachfremden sicher zu vermitteln sowie gute Deutsch- und Englischkenntnisse Eigenverantwortliches Arbeiten und Mitgestaltungsmöglichkeiten durch kurze EntscheidungswegeWeiterentwicklung durch Fokus auf Innovation: Die vielfältigen und abwechslungsreichen Projekte drehen sich um die Entwicklung intelligenter Algorithmen, datenbasierter Strategien und maßgeschneiderter KI-LösungenEngagiertes, dynamisches, konstruktives Team mit starkem Zusammenhalt und einer offenen Feedback-KulturSehr gut angebundene, moderne Räumlichkeiten und hochwertiges technisches EquipmentFlexibel planbarer remote-Anteil von bis zu 40%, sogar zweitweise aus dem EU-AuslandZuschuss zum Deutschland-Ticket, zu Sport- und Wellnessangeboten sowie zur Kinderbetreuung Gehaltsinformationen Erfahrungsabhängig bis zu 100.000 € p.a.
Mein Arbeitgeber Beratungsunternehmen im Bereich Frachtkostenprüfung und -optimierung mit 100-jähriger Geschichte Modernisierung der Datenbankinfrastruktur bzw. des Data-Warehouse, um hierauf aufbauend sukzessive Automatisierungs- und KI-Lösungen und Tools für verschiedene Analysen und Prüfungen zu implementierenPython-ProgrammierungAufbau robuster Datenpipelines, die aus rohen Daten wertvolle Insights generierenEntwicklung und Aufbau der Infrastruktur, um datengetriebene Entscheidungen treffen zu könnenAufbau und Weiterentwicklung eines zentralen Data-Vault Datawarehouse-SystemsKonzeption, Implementierung und Automatisierung von Datenpipelines (ETL/ELT) mit Apache NiFi, dbt und Python Abgeschlossene Ausbildung zum Fachinformatiker für Anwendungsentwicklung, abgeschlossenes Studium mit Informatikbezug oder Quereinsteiger mit entsprechendem Know-HowFundierte Kenntnisse in der datengetriebenen Softwareentwicklung mit PythonErfahrung in der Frontend- und Backend-EntwicklungKenntnisse in Django/HTMX von VorteilErste Erfahrung im Bereich Data Engineering, Datenbanken, ETL und/oder Data WarehouseKenntnisse mit Apache NiFi und dbt von Vorteil Ein extrem spannendes und hochkomplexes BetätigungsfeldAttraktive Weiterentwicklungsmöglichkeiten38-Stunden-WocheRemote-Work möglichJobradGute Erreichbarkeit mit dem Auto und dem ÖPNVIndividuelle Absprachen zu Benefits möglich Gehaltsinformationen 50.000 - 70.000 EUR p.a.
Zum nächstmöglichen Zeitpunkt suchen wir in Weeze für die IT eine/n Data Analyst (m/w/d) Deine Aufgaben Du analysierst, designst und realisierst innovative Business Intelligence (BI) Lösungen Du erfasst und spezifizierst fachliche Anforderungen Du analysierst Prozesse und erarbeitest Optimierungspotentiale Du erstellst Reports und Dashboards Du erarbeitest Ideen zur Verbesserung und Weiterentwicklung unserer BI-Systeme und Datenbankstrukturen Du unterstützt unsere Fachbereiche bei BI-Fragestellungen Dein Profil Basic: Du hast eine berufliche Ausbildung oder ein Studium im Bereich der Informatik, Mathematik, Wirtschafts-, Natur- oder Ingenieurwissenschaften. Add-on: Du verfügst über SQL-Kenntnisse und bringst bereits Erfahrung in der Arbeit mit einem BI-System (z.B.
Zum nächstmöglichen Zeitpunkt suchen wir in Weeze für die IT eine/n Data Engineer (m/w/d) Deine Aufgaben Du konzipierst, entwickelst und wartest Datenintegrations- und Modellierungsprozesse im Data Warehouse Du erstellst Konzepte für Daten-Architekturen (u.a. zur Umsetzung von Datenvisualisierungen) Du unterstützt die Fachbereiche bei der Umsetzung von Anforderungen Du setzt Berechtigungskonzepte um Zusätzlich erarbeitest Du mit dem gesamten Business Intelligence (BI) Team Ideen zur Verbesserung und Weiterentwicklung unserer BI-Systeme Dein Profil Basic: Du hast eine Ausbildung, ein Studium oder eine vergleichbare Berufserfahrung und gute IT-Kenntnisse. Du verfügst über gute SQL-Kenntnisse und hast eine Leidenschaft für Daten.
Zum nächstmöglichen Zeitpunkt suchen wir in Weeze für die IT eine/n Data Scientist (m/w/d) Deine Aufgaben Du entwickelst Lösungen im Bereich Predictive Analytics, Machine Learning und Künstliche Intelligenz Du analysierst Prozesse, erarbeitest Optimierungspotentiale und erstellst Prototypen, um Lösungsansätze zu bestätigen Du berätst unsere Fachbereiche bei der Anwendung von datengetriebenen Lösungen Zusätzlich erarbeitest Du mit dem gesamten Business Intelligence (BI) Team Ideen zur Verbesserung und Weiterentwicklung unserer BI- und Data Science-Systeme Dein Profil Basic: Du hast eine Ausbildung, ein Studium oder eine vergleichbare Berufserfahrung sowie gute Mathematik-, Statistik- und IT-Kenntnisse. Weiterhin bist Du kreativ und hast eine Leidenschaft für Daten.
Unterstützen Sie uns im Rahmen eines Praktikums/einer Abschlussarbeit im Bereich Data Science. Studium/Fachrichtung | Mathematik, Statistik, Data Science, Informatik, Physik oder vglb. Studiengänge Einsatzbereich | Praktikum/Abschlussarbeit im Bereich Data Science Dauer | 3-6 Monate Bestens gefordert | Wir suchen motivierte Studierende, die sich unserem Data Science Team für ein Pflichtpraktikum und/oder eine Bachelor-/Masterarbeit (3-6 Monate) anschließen möchten.
zurück Baienfurt Abgeschlossene Berufsausbildung oder Studium Vollzeit Unbefristet Ihre Aufgaben Entwicklung und Pflege von Datenmodellen und Reports in Power BI zur Unterstützung datenbasierter Entscheidungen Analyse und Aufbereitung von Geschäfts- und Prozessdaten sowie Identifikation von Trends, Abweichungen und Optimierungspotenzialen Aufnahme, Strukturierung und Umsetzung von Reporting- und Analyseanforderungen aus verschiedenen Fachbereichen Integration und Aufbereitung von Daten aus unterschiedlichen Quellsystemen, insbesondere aus dem Microsoft Dynamics 365 Umfeld (z.
zurück Stockstadt am Rhein Abgeschlossene Berufsausbildung oder Studium Vollzeit Unbefristet Ihre Aufgaben Entwicklung und Pflege von Datenmodellen und Reports in Power BI zur Unterstützung datenbasierter Entscheidungen Analyse und Aufbereitung von Geschäfts- und Prozessdaten sowie Identifikation von Trends, Abweichungen und Optimierungspotenzialen Aufnahme, Strukturierung und Umsetzung von Reporting- und Analyseanforderungen aus verschiedenen Fachbereichen Integration und Aufbereitung von Daten aus unterschiedlichen Quellsystemen, insbesondere aus dem Microsoft Dynamics 365 Umfeld (z.
RTL2 Fernsehen GmbH & Co. KG sucht in Grünwald, Ravensburg eine/n Duales Studium - Data Science und Künstliche Intelligenz (ID-Nummer: 13673938)
Ihre Aufgaben im Finanzbereich: Präzise Übertragung von Finanzberichten (Bilanz und Gewinn- und Verlustrechnung) ins interne BARS-System Schwerpunkt GmbH-StrukturenPrüfung, Analyse und Sicherung von Konsistenz, Genauigkeit und Vollständigkeit der Finanzdaten Enge Zusammenarbeit mit Kreditmanagern und Kundenbetreuer*innen zur Klärung von Unstimmigkeiten Dokumentation aller Schritte inklusive Prüfpfade für Finanzübertragungen und Unterstützung bei periodischen Reportings und Validierungen Strikte Einhaltung interner Standards, gesetzlicher Vorgaben und Compliance-Richtlinien Ihre Qualifikation: Abgeschlossenes Studium im Bereich Finanzen, Rechnungswesen oder einem verwandten Fachgebiet; alternativ eine kaufmännische Ausbildung mit entsprechender Berufserfahrung Mehrjährige Berufserfahrung in der Finanzanalyse, Kreditrisiko oder vergleichbarer Position Fundiertes Verständnis von Finanzberichten, buchhalterischen Grundsätzen und Finanzanalyse; sicherer Umgang mit Microsoft Excel; Erfahrung mit BARS oder ähnlichen Tools von Vorteil Hohe Genauigkeit, ausgeprägtes Auge fürs Detail sowie starke Kommunikations- und Kooperationsfähigkeit in deutscher SpracheFähigkeit, Aufgaben eigenständig umzusetzen und effektiv in einem internationalen Team zusammenzuarbeiten Wir bieten: Moderner Arbeitsplatz in Berlin-Charlottenburg mit sehr guter Verkehrsanbindung Möglichkeit zu 40 % Homeoffice nach Einarbeitung Abwechslungsreiche Tätigkeit in einem internationalen UmfeldIntensive Einarbeitung durch erfahrene Teamkollegen (m/w/d)Betriebliche Altersvorsorge zur Absicherung Ihrer ZukunftHofmann-App: Digitale Urlaubs- und Gleitzeitanträge direkt auf Ihrem Handy, Fit-Coach mit Rezepten, Sportübungen und vielem mehr Starten Sie Ihre Karriere bei Hofmann!
Gestaltungsspielraum in anspruchsvollen Projekten, langfristige Perspektiven und Flexibilität sind inklusive Verantwortung für erfolgreiche Data-, Analytics- und KI-Projekte als Projektmanager und Schnittstelle zwischen Business und Technik Beratung von Kunden zu datengetriebenen Strategien, Chancen und Risiken Offenes Ohr für Kundenbedürfnisse und Problemstellungen zur Identifikation von Trends Konzeption von Data-, Analytics- und KI-Lösungen und Auswahl passender Methoden Gestaltung und Weiterentwicklung der unternehmensinternen Data-Engineering-Aktivitäten Analyse des Einsatzes generativer KI zur Identifikation neuer Chancen für Kunden Aufbau nachhaltiger Kundenbeziehungen durch die Entwicklung individueller Lösungen Aktive Gestaltung von Workshops und Beiträgen zur Unterstützung des Teams beim Know How-Transfer Erfolgreich abgeschlossenes Studium der (Wirtschafts-)Informatik oder eine vergleichbare Ausbildung Einschlägige Berufserfahrung in der Beratung und Konzeption rund um Data Engineering Sehr gutes Verständnis für moderne Datenarchitekturen, Cloud-Technologien und Data-Governance-Frameworks Die Fähigkeit, Anwendungspotenziale und Auswirkungen von Generativer KI zu identifizieren und zu erläutern Ausgezeichnete Kommunikationsfähigkeit auf Deutsch und Englisch mit technisch versierten sowie fachfremden Zielgruppen Visionäre Denkweise und hast die Fähigkeit, Trends frühzeitig zu erkennen und interne strategische Initiativen voranzutreiben Eigenverantwortliches Arbeiten und Mitgestaltungsmöglichkeiten durch kurze Entscheidungswege Weiterentwicklung durch Fokus auf Innovation: Die vielfältigen und abwechslungsreichen Projekte drehen sich um die Entwicklung intelligenter Algorithmen, datenbasierter Strategien und maßgeschneiderter KI-Lösungen Engagiertes, dynamisches, konstruktives Team mit starkem Zusammenhalt und einer offenen Feedback-Kultur Sehr gut angebundene, moderne Räumlichkeiten und hochwertiges technisches Equipment Flexibel planbarer remote-Anteil von bis zu 40%, sogar zweitweise aus dem EU-Ausland Zuschuss zum Deutschland-Ticket, zu Sport- und Wellnessangeboten sowie zur Kinderbetreuung Gehaltsinformationen Erfahrungsabhängig bis zu 100.000 € p.a.
Du konzipierst und realisierst mithilfe von Snowflake moderne Cloud Datenplattformen Als (Teil-)Projektleiter oder Fachexperte: Du übernimmst Verantwortung für den Kunden und trägst maßgeblich zum Projekterfolg bei Im Team unterstützt Du bei der Einarbeitung und Betreuung von Consultants Hiermit kommst Du zu uns Abgeschlossenes IT-orientiertes Studium oder eine klassische Berufsausbildung Mehrjährige Consulting Praxis im Cloud-, Data Warehouse-, Data Management- oder Data Lake-Umfeld Gute Kenntnisse in der Konzeption, Architektur, Entwicklung und Implementierung von Cloud Datenplattformen (Data Warehousing, Data Lake oder Data Lakehouse) auf den Hyper Scalern AWS, Azure, GCP im Zusammenspiel mit Snowflake Modellierungserfahrung (z.B.
Ihre zukünftigen Aufgaben: Aufbau und Weiterentwicklung moderner Data-Warehouse- und Data-Lakehouse-ArchitekturenImplementierung und Weiterentwicklung von Datenmodellen nach etablierten Modellierungsansätzen wie Data Vault oder Star SchemaIntegration, Transformation und Aufbereitung von Daten für Analyse- und ReportingzweckeEnge Abstimmung mit Fachbereichen und Data Scientists zur Sicherstellung konsistenter und belastbarer DatenstrukturenMitwirkung an Architekturentscheidungen und Definition von Best Practices innerhalb der Inhouse-IT-Landschaft Das bringen Sie mit: Abgeschlossene Ausbildung oder Studium im Bereich Informatik, Wirtschaftsinformatik, Data Science, Mathematik oder einer vergleichbaren FachrichtungMindestens fünf Jahre fundierte Erfahrung im Data Modelling sowie mindestens drei Jahre praktische Erfahrung im Aufbau und Betrieb von Data-Lakehouse-ArchitekturenSehr gute Kenntnisse in der Arbeit mit Snowflake als Data-Warehouse-LösungErfahrung mit Qlik Sense im Bereich Visualisierung, Datenanalyse und ReportingHohe Lernbereitschaft und Fähigkeit zur schnellen Einarbeitung in neue Technologien und Trends der DatenverarbeitungSelbstständige und analytische Arbeitsweise sowie eine ausgeprägte TeamfähigkeitSehr gute Deutschkenntnisse in Wort und Schrift Ihre Vorteile in einer Festanstellung bei der Tempton Next Level Experts: Ein unbefristeter ArbeitsvertragSicherer Job mit spannenden Projekten bei Top-UnternehmenBezahlung mindestens nach GVP/DGB-TarifvertragUrlaubs- und Weihnachtsgeld plus vermögenswirksame LeistungenBis zu 30 Tage UrlaubExklusive Mitarbeiterrabatte bei zahlreichen namhaften MarkenSpannende Einblicke und verantwortungsvolle AufgabenIndividuelle Betreuung und aktive KarrierebegleitungPersönliches Onboarding und regelmäßige Feedback-Gespräche Haben Sie noch Fragen?
Du konzipierst und realisierst mithilfe von Snowflake moderne Cloud Datenplattformen Als (Teil-)Projektleiter oder Fachexperte: Du übernimmst Verantwortung für den Kunden und trägst maßgeblich zum Projekterfolg bei Im Team unterstützt Du bei der Einarbeitung und Betreuung von Consultants Hiermit kommst Du zu uns Abgeschlossenes IT-orientiertes Studium oder eine klassische Berufsausbildung Mehrjährige Consulting Praxis im Cloud-, Data Warehouse-, Data Management- oder Data Lake-Umfeld Gute Kenntnisse in der Konzeption, Architektur, Entwicklung und Implementierung von Cloud Datenplattformen (Data Warehousing, Data Lake oder Data Lakehouse) auf den Hyper Scalern AWS, Azure, GCP im Zusammenspiel mit Snowflake Modellierungserfahrung (z.B.
Gleichzeitig beraten wir als internes Kompetenzzentrum die INFOMOTION Kolleginnen und Kollegen in Sachen Projektmanagement und bilden sie methodisch aus. Hiermit kommst Du zu uns Ein abgeschlossenes Studium der Wirtschaftsinformatik, eines MINT-Fachs oder der Wirtschaftswissenschaften bzw. eine andere vergleichbare Qualifikation Du hast mehrjährige (6+) Berufspraxis im agilen oder hybriden Projektmanagement und Erfahrung in der Leitung von (Projekt-)Teams.
VBA, Skripte, Schnittstellen) Analyse, Strukturierung und Optimierung großer, heterogener Datenmengen aus unterschiedlichen Systemen Einsatz und Weiterentwicklung von KI-gestützten Ansätzen zur Datenanalyse, Prozessunterstützung und Entscheidungsfindung Erstellung und Pflege von Prozess-, System- und Automatisierungsdokumentation Ihr Profil: Sie können ein abgeschlossenes Studium im Bereich Wirtschaftsingenieurwesen, Wirtschaftsinformatik oder ähnliches vorweisen Sie sind versiert im Umgang mit großen Datenmengen, haben Erfahrung in Datenstrukturierung und -optimierung und konnten idealerweise bereits erste Erfahrung mit dem Einsatz künstlicher Intelligenz sammeln Sie haben ein Grundverständnis technischer und industrieller Abläufe Sie sind vertraut mit dem ERP-System SAP (Kenntnisse im Modul MM von Vorteil) Sie besitzen gute Kenntnisse in VBA, JSON oder vergleichbaren Programmiersprachen Sie haben Spaß am Analysieren und Optimieren von Prozessen und besitzen die nötige Auffassungsgabe, um komplexe Zusammenhänge zu verstehen Sie verfügen über sehr gute Deutsch- und Englischkenntnisse in Wort und Schrift Ihr Kontakt: Désirée Bleier Teamlead HR Business Partner